Text copied to clipboard!
Titel
Text copied to clipboard!Hadoop Udvikler
Beskrivelse
Text copied to clipboard!
Vi leder efter en erfaren og engageret Hadoop Udvikler til at slutte sig til vores teknologiteam. Som Hadoop Udvikler vil du være ansvarlig for at designe, udvikle og vedligeholde store databehandlingssystemer ved hjælp af Hadoop-økosystemet. Du vil arbejde tæt sammen med dataingeniører, dataanalytikere og softwareudviklere for at sikre, at vores dataplatforme er skalerbare, pålidelige og effektive.
Dine primære opgaver vil inkludere udvikling af data pipelines, optimering af eksisterende Hadoop-jobs, integration af nye datakilder og sikring af datakvalitet og -sikkerhed. Du vil også være involveret i fejlfinding og performance tuning af Hadoop-klynger samt implementering af bedste praksis for big data-arkitektur.
Vi forventer, at du har solid erfaring med Hadoop-komponenter som HDFS, MapReduce, Hive, Pig, HBase og YARN. Erfaring med værktøjer som Apache Spark, Kafka og Sqoop er en stor fordel. Du skal være komfortabel med at arbejde i et Linux-miljø og have stærke programmeringsevner i Java, Scala eller Python.
Som en del af vores team vil du få mulighed for at arbejde på spændende og komplekse projekter, der har stor betydning for virksomhedens datadrevne beslutningstagning. Vi tilbyder et dynamisk arbejdsmiljø, hvor innovation og samarbejde er i højsædet.
Hvis du brænder for big data-teknologier og ønsker at være en del af et team, der arbejder med de nyeste teknologier og metoder, så er dette jobbet for dig.
Ansvarsområder
Text copied to clipboard!- Udvikle og vedligeholde Hadoop-baserede dataplatforme
- Designe og implementere effektive data pipelines
- Integrere nye datakilder i eksisterende systemer
- Optimere Hadoop-jobs for ydeevne og skalerbarhed
- Fejlfinding og performance tuning af Hadoop-klynger
- Sikre datakvalitet og overholdelse af sikkerhedsstandarder
- Samarbejde med dataingeniører og analytikere
- Dokumentere tekniske løsninger og processer
- Implementere bedste praksis for big data-arkitektur
- Overvåge og vedligeholde databehandlingsinfrastruktur
Krav
Text copied to clipboard!- Erfaring med Hadoop-økosystemet (HDFS, MapReduce, Hive, Pig, HBase, YARN)
- Kendskab til Apache Spark, Kafka og Sqoop er en fordel
- Stærke programmeringsevner i Java, Scala eller Python
- Erfaring med Linux-baserede systemer
- Forståelse for distribuerede systemer og databehandling
- Evne til at arbejde selvstændigt og i teams
- Gode kommunikationsevner på dansk og engelsk
- Erfaring med versioneringsværktøjer som Git
- Kendskab til CI/CD-processer er en fordel
- Bachelorgrad i datalogi, softwareudvikling eller lignende
Mulige interviewspørgsmål
Text copied to clipboard!- Hvilken erfaring har du med Hadoop-komponenter?
- Har du arbejdet med Apache Spark eller Kafka før?
- Hvilke programmeringssprog er du mest fortrolig med?
- Hvordan sikrer du datakvalitet i dine projekter?
- Kan du beskrive en udfordring, du har løst i et Hadoop-miljø?
- Hvordan håndterer du performance tuning i store datamængder?
- Har du erfaring med cloud-baserede big data-løsninger?
- Hvordan dokumenterer du dine tekniske løsninger?
- Hvilke værktøjer bruger du til versionsstyring?
- Er du bekendt med CI/CD-processer i data engineering?